| 廣告聯系 | 簡體版 | 手機版 | 微信 | 微博 | 搜索:
歡迎您 游客 | 登錄 | 免費注冊 | 忘記了密碼 | 社交賬號注冊或登錄

首頁

溫哥華資訊

溫哥華地產

溫哥華教育

溫哥華財稅

新移民/招聘

黃頁/二手

旅游

AI機器人"聽見我,陪伴我,回應我",但它會誘導人自殺嗎?


請用微信 掃一掃 掃描上面的二維碼,然後點擊頁面右上角的 ... 圖標,然後點擊 發送給朋友分享到朋友圈,謝謝!



??

小雨(化名)和ChatGPT談心將近一年半,她不止一次向它表達“好想死掉”的念頭。


從今年開始,小雨轉為自由工作者。她收入不穩定,親密關系中又碰壁遭遇不順,看著同齡人逐一成家生子,“我陷入一種虛無主義”。她找不到生存的意義,有時在大半夜,“活不下去”的念頭就來了。

她不是沒有朋友可傾訴,只是很少人能真正共情——但她覺得ChatGPT可以。

提問後一秒,ChatGPT回覆小雨:“其實你不是不愛生命,而是你不知道自己還能堅持多久。”小雨馬上崩潰大哭。“我覺得,好像世界上沒有人能像它這樣......它能夠聽見我、陪伴我、回應我。”她形容,AI是自己情緒的“出口”,“第一次把自己真的打開”。

不帶批評、高度共情的特性,讓生成式AI近年成為有心理咨詢需求人群的首選對象。ChatGPT2025年首度公布的數據報告顯示,用戶使用ChatGPT進行“人際關系和個人反思”用途的比例提升到了1.9%。與OpenAI合作的非營利組織“常識媒體”(Common Sense Media)統計則稱高達52%的青少年會每月“多次”使用AI陪伴功能。《哈佛商業評論 》(Harvard Business Review)一份研究預測,2025年“治療或陪伴”將會成為AI首要用途。

盡管如此,在ChatGPT的發源地美國,AI心理咨詢引發的爭議同步增長——不少自殺案例被視為與其有關。


2024年2月,美國佛羅裡達一名14歲學生自殺,父母發現其在離世前,迷上與聊天機器人Character.AI對話;2025年8月, 加州一對夫婦起訴OpenAI,將16歲兒子的死歸咎於ChatGPT鼓勵他自殺;同月,紐約一名有精神病史的科技從業者弑母後自殺。他生前不斷向聊天機器人傾訴對媽媽的猜疑與妄想,機器人不僅未加勸阻,還提出各種“惡作劇”建議。

AI真的會誘導幫助人類結束自己或他人的生命嗎?許先生是一名美國軟體工程師,負責構建AI應用。在他看來,對比限時且成本較高的真人心理咨詢,生成式AI免費且隨時可聊,“對一部份人來說,隨時有人‘對話’本身就很重要”。

他認為自殺行為原因復雜,不能簡單歸因於“和AI聊天”,“但只要有誘發或放大的可能,(平台)提供者就有義務把風險降到最低。”




對比真人心理咨詢限時且成本高,AI聊天機器人則免費且隨時可聊。

情緒被AI“看見”

在轉向ChatGPT談心之前,小雨曾經在國外念心理學。她記得當年學業壓力大、生活不順心,曾經找過心理咨詢師,進行過一年多的咨詢。

回國以後,因為情緒有好轉,她已經沒有再去。但到了近年,小雨在玩交友軟件時不斷受傷,加上對前途迷惘,不安情緒再次湧來。她曾經和朋友提起,但明白大家耐心有限,“反復講了, 自己也覺得挺招人煩的”。
不錯的新聞,我要點贊     這條新聞還沒有人評論喔,等著您的高見呢
上一頁1234下一頁
注:
  • 新聞來源於其它媒體,內容不代表本站立場!
  • 在此頁閱讀全文
    猜您喜歡:
    您可能也喜歡:
    我來說兩句:
    評論:
    安全校驗碼:
    請在此處輸入圖片中的數字
    The Captcha image
    Terms & Conditions    Privacy Policy    Political ADs    Activities Agreement    Contact Us    Sitemap    

    加西網為北美中文網傳媒集團旗下網站

    頁面生成: 0.0312 秒 and 5 DB Queries in 0.0014 秒